هوش مصنوعی در حال تبدیل شدن به عنصر جداییناپذیر زندگی انسانها است وهر روز بیش از گذشته در تصمیمگیریهای کلان و حتی میدانهای جنگ نقشآفرین میشود. درهمین راستا، کارشناسان نگران پیامدهای اخلاقی این فناوری هستند؛ جایی که حذف قضاوت انسانی از چرخه تصمیمگیری میتواند مرزهای حقوق بشردوستانه را با چالشهای جدی مواجه کند.
به گزارش اطلاعات، دبیرکل کمیسیون ملی یونسکو-ایران، صبح دیروز در نشست علمی «پیامدهای اخلاقی هوش مصنوعی: ملاحظات اخلاقی در توسعه مسئولانه نظامهای هوش مصنوعی» که در تالار ملل دانشکده مطالعات جهان دانشگاه تهران برگزار شد، اظهار کرد: امروزه در جهانی زندگی میکنیم که فناوریهای نوظهور، بهویژه هوش مصنوعی، زندگی ما را دگرگون کردهاند. تحولات شتابان فناوری در حوزه هوش مصنوعی، توجه نهادهای ملی و بینالمللی را به پیامدهای اخلاقی این فناوری معطوف کرده است. هوش مصنوعی در سالهای اخیر به عنصری اثرگذار در فرآیندهای تصمیمگیری، تولید دانش و سیاستگذاری عمومی تبدیل شده است؛ امری که ضرورت توجه نظاممند به ملاحظات اخلاقی آن را برجسته میسازد.
حسن فرطوسی ادامه داد: یونسکو بهعنوان نهاد پیشرو در تدوین اسناد بینالمللی اخلاق هوش مصنوعی، نقش مهمی در هدایت گفتگوهای جهانی پیرامون توسعه مسئولانه این فناوری ایفا کرده و بر اصولی چون عدالت، شفافیت، مسئولیتپذیری، احترام به کرامت انسانی و شمول اجتماعی تأکید دارد. تحقق عملی این اصول، مستلزم انطباق آنها با شرایط و اولویتهای ملی است. جمعبندی کلی این نگاه در یونسکو در سال ۲۰۲۱ در قالب «توصیهنامه اخلاق در هوش مصنوعی» منتشر شد. یونسکو ذیل این سند تلاش کرده است توصیهنامه اخلاقی جامعی تدوین کند که بر حفظ کرامت و حقوق انسانها و دفاع از آزادیهای اساسی استوار است.
وی افزود: هوش مصنوعی فرصتهای بینظیری برای افراد و نهادها فراهم کرده است اما همزمان، چالشهایی جدی در این حوزه وجود دارد؛ چالشهایی مانند حفظ حریم خصوصی و تأمین امنیت دادهها، موضوع اخلاق در بهرهگیری از هوش مصنوعی و تضمین دسترسی برابر به فناوری برای همه. یونسکو هشدار میدهد که اگر این چالشها مدیریت نشوند، فناوری به جای کاهش مسائل و معضلات باعث تشدید آن خواهد شد.
استفاده از هوش مصنوعی در جنگ
در ادامه، استاد گروه ارتباطات و مطالعات جهان دانشگاه تهران طی سخنانی با اشاره به الزامات اخلاقی هوش مصنوعی در منازعات مسلحانه گفت: در اخلاق جنگ توصیههایی برای استفاده از هوش مصنوعی مطرح شده است؛ از جمله آنکه این کاربرد باید منطبق بر احترام به کرامت انسانی و پرهیز از تخریب اماکن طبیعی و زیستبومهای انسانی باشد. در این راستا توجه به ظرفیتهای خاص این فناوری ضروری است.
حجتالاسلام سعیدرضا عاملیافزود: وقتی از هوش مصنوعی در بستر جنگ استفاده شود، خطرات و پیچیدگیهای عملیات نظامی به میزان چشمگیری افزایش مییابد. خطای الگوریتمی در چنین شرایطی میتواند فاجعهآمیز باشد؛ مشابه فاجعهای که در «مدرسه شجره طیبه» رخ داد و به شهادت ۱۶۸کودک معصوم انجامید. وی ادامه داد: در گذشته فرماندهان نظامی هزینه انسانی جنگ را بهطور محسوس درک میکردند. آنها در میدان جنگ حضور داشتند، کشتار را مشاهده میکردند، صحنههای تخریب را از نزدیک میدیدند و بوی باروت را استشمام میکردند. اما در جنگ هوشمند، فضا کاملاً دگرگون میشود. جنگ از راه دور اداره میشود و تلفات جانی برای عاملان آن که در بستر فناوری قرار دارند، محسوس و عینی نیست.
خطوط قرمز
استاد دانشگاه تهران تصریح کرد: هسته مرکزی حقوق بینالملل بشردوستانه بر این فرض استوار است که حتی در خشونت سازمانیافته جنگ نمیتوان از خطقرمزهای انسانی عبور کرد. کنوانسیونهای ژنو (۱۹۴۹) و پروتکل الحاقی (۱۹۷۷) این خطقرمزها را در قالب اصولی، چون تفکیک، تناسب و احتیاط صورتبندی کردهاند. با ورود هوش مصنوعی به زنجیره تصمیمگیری نظامی، این پرسش مطرح میشود که آیا ماشین فاقد درک انسانی، وجدان اخلاقی و مسئولیتپذیری حقوقی میتواند احترام به این اصول را تضمین کند؟ پاسخ از دیدگاه تحلیلگران منفی است.
عاملی با اشاره به عصر الگوریتم و خودکاری شدن جنگ (کشتار رایانهای/هوش مصنوعی) افزود: در این دوره سامانههای مبتنی بر الگوریتم با استفاده از هزاران میلیارد پارامتر امکان تصمیمگیری خودکار را دارند. این سیستمها فاقد ترحم، اخلاق و درک انسانی هستند و در دنیایی بدون استهلاک و بر مبنای منطق پارامتریک عمل میکنند. آغاز این دوره به ۲۴فوریه ۲۰۲۲ (تهاجم روسیه به اوکراین) نسبت داده میشود. در این جنگ روسیه از سامانههای تخصصی محاسباتی برای هدفگیری توپخانه با دخالت محدود انسانی و اوکراین از نرمافزارهای سیستم اطلاعات جغرافیایی برای پردازش دادههای ماهوارهای و پیشنهاد مختصات شلیک استفاده کردند. همچنین پهپادهای انتحاری مجهز به الگوریتمهای ردیابی خودکار، نشانههای اولیه از خودکارسازی زنجیره کشتار بودند. با این حال، در تمامی موارد یادشده، تصمیم نهایی برای شلیک همچنان با اپراتور انسانی بود که در محیطی دور از میدان نبرد اتخاذ میشد.
چالشهای انسانی
وی درباره چالشهای کاربرد هوش مصنوعی در مخاصمات مسلحانه گفت: هوش مصنوعی نظامی دچار شکاف معنایی است؛ به این معنا که الگوریتم، داده را صرفاً مجموعهای از پیکسلها، سیگنالها یا مختصات جغرافیایی میبیند، اما معنای انسانی آن داده را درک نمیکند. برای نمونه، برخی مکانها صرفاً به اعتبار نامگذاری به عنوان هدف شناسایی میشوند، در حالی که بار معنایی واقعی آن نام (مانند وجود غیرنظامیان یا اماکن مذهبی) مورد توجه قرار نمیگیرد.
عاملی افزود: در نظریه جنگ عادلانه و حقوق بینالملل بشردوستانه، اصل تناسب مبتنی بر ارزیابی کیفی و زمینهمند است. یک فرمانده انسانی باید عواملی، چون میزان اطمینان از اطلاعات، ابهامات موجود، ارزشهای انسانی در معرض خطر و حتی وجدان عمومی را در تصمیم خود دخیل کند. برای مثال، یک فرمانده ممکن است خطر مرگ پنج غیرنظامی را برای کشتن ۱۰سرباز دشمن بپذیرد، اما اگر آن پنج غیرنظامی کودک باشند، ممکن است همان خطر را حتی برای کشتن بیست سرباز نپذیرد. در سیستمهای خودکار مبتنی بر هوش مصنوعی، چنین قضاوت کیفی و زمینهمندی حذف میشود. وی بیان کرد: در جمعبندی مباحث کارشناسی یکی از پیشنهادهای مشخص برای مهار رفتار ضداخلاقی هوش مصنوعی در جنگ، موضوع قفل اخلاقی است. بر این اساس، اگر سیستمهای هوش مصنوعی نتوانند با اطمینان ۹۹.۹درصد غیرنظامی بودن یک هدف را اثبات کنند، حمله بهطور خودکار ممنوع شده و پرونده برای بررسی انسانی ارجاع میشود.
شما چه نظری دارید؟